首页> 外文OA文献 >Translating Videos to Commands for Robotic Manipulation with Deep Recurrent Neural Networks
【2h】

Translating Videos to Commands for Robotic Manipulation with Deep Recurrent Neural Networks

机译:将视频转换为使用Deep进行机器人操作的命令   递归神经网络

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

We present a new method to translate videos to commands for roboticmanipulation using Deep Recurrent Neural Networks (RNN). Our framework firstextracts deep features from the input video frames with a deep ConvolutionalNeural Networks (CNN). Two RNN layers with an encoder-decoder architecture arethen used to encode the visual features and sequentially generate the outputwords as the command. We demonstrate that the translation accuracy can beimproved by allowing a smooth transaction between two RNN layers and using thestate-of-the-art feature extractor. The experimental results on our newchallenging dataset show that our approach outperforms recent methods by a fairmargin. Furthermore, we combine the proposed translation module with the visionand planning system to let a robot perform various manipulation tasks. Finally,we demonstrate the effectiveness of our framework on a full-size humanoid robotWALK-MAN.
机译:我们提出了一种使用深度递归神经网络(RNN)将视频转换为命令进行机器人操作的新方法。我们的框架首先使用深度卷积神经网络(CNN)从输入视频帧中提取深度特征。然后使用具有编码器-解码器体系结构的两个RNN层对视觉特征进行编码,并顺序生成输出字作为命令。我们证明,通过允许两个RNN层之间的平滑事务并使用最新的特征提取器,可以提高翻译的准确性。在我们具有挑战性的数据集上的实验结果表明,我们的方法在公平性方面优于最近的方法。此外,我们将提出的翻译模块与视觉和计划系统相结合,以使机器人执行各种操作任务。最后,我们演示了全尺寸人形机器人WALK-MAN的有效性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号